30 research outputs found

    An efficient framework for visible-infrared cross modality person re-identification

    Get PDF
    Visible-infrared cross-modality person re-identification (VI-ReId) is an essential task for video surveillance in poorly illuminated or dark environments. Despite many recent studies on person re-identification in the visible domain (ReId), there are few studies dealing specifically with VI-ReId. Besides challenges that are common for both ReId and VI-ReId such as pose/illumination variations, background clutter and occlusion, VI-ReId has additional challenges as color information is not available in infrared images. As a result, the performance of VI-ReId systems is typically lower than that of ReId systems. In this work, we propose a four-stream framework to improve VI-ReId performance. We train a separate deep convolutional neural network in each stream using different representations of input images. We expect that different and complementary features can be learned from each stream. In our framework, grayscale and infrared input images are used to train the ResNet in the first stream. In the second stream, RGB and three-channel infrared images (created by repeating the infrared channel) are used. In the remaining two streams, we use local pattern maps as input images. These maps are generated utilizing local Zernike moments transformation. Local pattern maps are obtained from grayscale and infrared images in the third stream and from RGB and three-channel infrared images in the last stream. We improve the performance of the proposed framework by employing a re-ranking algorithm for post-processing. Our results indicate that the proposed framework outperforms current state-of-the-art with a large margin by improving Rank-1/mAP by 29.79%/30.91% on SYSU-MM01 dataset, and by 9.73%/16.36% on RegDB dataset.WOS:000551127300017Scopus - Affiliation ID: 60105072Science Citation Index ExpandedQ2ArticleUluslararası işbirliği ile yapılmayan - HAYIREylül2020YÖK - 2020-2

    An efficient multiscale scheme using local zernike moments for face recognition

    Get PDF
    In this study, we propose a face recognition scheme using local Zernike moments (LZM), which can be used for both identification and verification. In this scheme, local patches around the landmarks are extracted from the complex components obtained by LZM transformation. Then, phase magnitude histograms are constructed within these patches to create descriptors for face images. An image pyramid is utilized to extract features at multiple scales, and the descriptors are constructed for each image in this pyramid. We used three different public datasets to examine the performance of the proposed method:Face Recognition Technology (FERET), Labeled Faces in the Wild (LFW), and Surveillance Cameras Face (SCface). The results revealed that the proposed method is robust against variations such as illumination, facial expression, and pose. Aside from this, it can be used for low-resolution face images acquired in uncontrolled environments or in the infrared spectrum. Experimental results show that our method outperforms state-of-the-art methods on FERET and SCface datasets.WOS:000437326800174Scopus - Affiliation ID: 60105072Science Citation Index ExpandedQ2 - Q3ArticleUluslararası işbirliği ile yapılmayan - HAYIRMayıs2018YÖK - 2017-1

    Two dimensional generalized edge detector

    Get PDF
    Bu çalışmada, daha önce Gökmen ve Jain (1997) tarafından geliştirilen -uzayında görüntü  gösterimi ve ayrıt saptayıcı  iki boyutlu uzaya genişletilmektedir. Bu genişletme özellikle iki açıdan önemlidir. Birinci olarak, görüntülerin -uzayındaki davranışları en iyi, iki boyutlu düzleştirme ve ayrıt saptama süzgeçleri ile modellenebilir. İkincisi, genelleştirilmiş ayrıt saptayıcı (GAS) ile bilinen başarılı birçok ayrıt saptayıcısını üretebildiğinden, iki boyutlu GAS ile bu süzgeçlerin iki boyutlu biçimleri oluşturulabilir. Düzleştirme problemi, zar ve levha modellerinin doğrusal bileşiminden oluşan iki boyutlu karma enerji fonksiyonelinin en aza indirgenmesi olarak tanımlanmıştır. Gökmen ve Jain (1997) karma fonksiyoneli en aza indirgeyen denklemi, ayrıştırılabilir olduğu varsayımı altında tek boyutlu kısmi diferansiyel denklem olarak çözmüşlerdir. Ancak mevcut ayrıştırılabilir çözüm iki boyutlu özgün denklemi sağlamamaktadır. Bu çalışmada, karma fonksiyoneli en aza indirgeyen denklem takımı iki boyutlu uzaydaki çözümü sunulmaktadır. Türetilen süzgeçler önceki süzgeçlerle birinci ve ikinci tür hata karakteristiklerine göre karşılaştırıldığında gürültüye daha az duyar olduğu gözlenmiştir. Gerçek ve yapay görüntüler üzerinde yapılan deneysel sonuçlarla ayrıt saptayıcının performansı ve -uzayındaki davranışı sunulmuştur. Ayrıt saptayıcılar ile çalışırken ayarlanması gereken çok sayıda parametre bulunmaktadır. Verilen bir imge için en iyi parametre kümesini bulmanın genel geçer bir yöntemi bulunmamaktadır. Gerçektende, bir imge için en iyilenen bir ayrıt saptayıcının parametreleri başka bir imge için en iyi olmayacaktır. Bu çalışmada, en iyi GAS parametreleri, verilen bir imge için hesaplanan, alıcı işletim eğrisi üzerinden belirlenmiştir. Burada amaç GAS'ın başarımının sınırlarını göstermektir. Anahtar Kelimeler: Ayrıt saptama, düzenlileştirme kuramı, ölçek-uzayı gösterilimi, yüzey kurma.The aim of edge detection is to provide a meaningful description of object boundaries in a scene from intensity surface. These boundaries are due to discontinuities manifesting themselves as sharp variations in image intensities. There are different sources for sharp changes in images which are created by structure (e.g. texture, occlusion) or illumination (e.g. shadows, highlights). Extracting edges from a still image is certainly the most significant stage of any computer vision algorithm requiring high accuracy of location in the presence of noise. In many contour-based vision algorithms, such as shape-based query, curved-based stereo vision, and edge-based target recognition, their performance is highly dependent on the quality of the detected edges. Therefore, edge detection is an important area of research in computer vision. Despite considerable work and progress made on this subject, edge detection is still a challenging research problem due to the lack of a robust and efficient general purpose algorithm. Most of the efforts in edge detection have been devoted to the development of an optimum edge detector which can resolve the tradeoff between good localization and detection performance. Furthermore, extracting edges at different scales and combining these edges have attracted a substantial amount of interest. In the course of developing optimum edge detectors that can resolve the tradeoff between localization and detection performances, several different approaches have resulted in either a Gaussian filter or a filter whose shape is very similar to a Gaussian. Furthermore, these filters are very suitable for obtaining scale space edge detection since the scale of the filter can be easily controlled by means of a single parameter. For instance, in classical scale-space the kernel is a Gaussian and the scale-space representation is obtained either by convolving the image by a Gaussian with increasing standard deviation or equivalently by solving the linear heat equation in time. This representation is causal, since the isotropic heat equation satisfies a maximum principle. However, the Gaussian scale-space suffers from serious drawbacks such as over-smoothing and location uncertainty along edges at large scales due to interactions between nearby edges and displacements. Although these filters are used widely, it is very difficult to claim that they can provide the desired output for any specific problem. For instance, there are some cases where the improved localization performance is the primary requirement. In these cases, a sub-optimum conditions filter which promotes the localization performance becomes more appropriate. It has been shown that the first order R-filter can deliver improved results on checkerboard and bar images as well as some real images for moderate values of signal-to-noise ratio (SNR). In many vision applications, there is a great demand for a general-purpose edge detector which can produce edge maps with very different characteristics in nature, so that one of these edge maps may meet the requirements of the problem under consideration. Detecting edges in images is one of the most challenging issues in computer vision and image processing due to lack of a robust detector. Gökmen (1997) obtained an edge detector called Generalized Edge Detector (GED), capable of producing most of the existing edge detectors. The original problem was formulated on two-dimensional Hybrid model comprised of the linear combination of membrane and thin-plate functionals. Smoothing problem was then reduced to the solution of two-dimensional partial differential equation (PDE). The filters were obtained for one dimensional case assuming a separable solution. This study extends edge detection of images in lt-space to two-dimensional space. Two-dimensional extension of the representation is important since the properties of images in the space are best modeled by two dimensional smoothing and edge detector filters. Also since GED filters encompass most of the well-known edge detectors, two-dimensional version of these filters could be obtained. The derived filters are more robust to noise when compared to the previous one dimensional scheme in the sense of missing and false alarm characteristics. There are several parameters to tune when dealing with edge detectors. Usually there is no easy way to find the optimal edge detector parameters for an image. In fact, one set of optimal parameters may not be optimal for another image. In this study, we find optimal GED parameters using receiver operator characteristics for an image when its ideal edges are available using exhaustive search to see how best it achieves. Keywords: Edge detection, regularization theory, scale-space representation, surface reconstruction

    Gradient-based object segmentation and recognition

    Get PDF
    Bu çalışmada, aktif çevrit nesne bölütleyici yöntemlerle birlikte kullanılabilecek yeni bir eşzamanlı şekil betimleme ve tanıma sistemi önerilmiştir. Aktif çevrit bölütleyici olarak Hızlı Yürüme (Fast Marching) algoritması kullanılmış, Hızlı Yürüme metodu için yeni bir hız işlevi tanımlanmış, ayrıca çevriti nesne sınırlarından geçtiği sırada durdurmayı amaçlayan özgün yaklaşımlar önerilmiştir. Çalışmanın en önemli katkılarından birisi yeni ortaya atılan Gradyan Temelli Şekil Betimleyicisi (GTŞB) dir (Çapar vd., 2009). GTŞB, aktif çevrit bölütleyicilerinin yapısına uygun, sınır tabanlı, hem ikili hem de gri-seviyeli görüntülerle rahatça kullanılabilecek başarılı bir şekil betimleyicidir. GTŞB nin araç plaka karakter veritabanı, MPEG-7 şekil veritabanı, Kimia şekil veritabanı gibi farklı şekil veritabanlarında elde ettiği başarılar diğer çok bilinen sınır tabanlı betimleyicilerle de karşılaştırılarak verilmiştir. Elde edilen sonuçlar GTŞB nin tüm veritabanlarında diğer yöntemlere göre daha başarılı olduğunu işaret etmektedir. Çalışmada ortaya atılan bir diğer önemli yaklaşım da Hızlı Yürüme çevritinin nesne sınırına yaklaşırken örneklenerek şeklin birden fazla defa betimlenmesine olanak veren yeni sınıflandırıcı yapıdır. Bu yaklaşım nesne tanımayı bir denemede sonuçlandıran geleneksel yöntemlerin bu sınırlamasını aşarak aynı nesneyi birçok kez tanıma olanağı sunmaktadır. Bu tanıma sonuçlarının tümleştirilmesiyle tek tanımaya göre daha yüksek başarılar elde edildiği çalışmanın ilgili bölümlerinde gösterilmektedir. Bu çalışmada görüntüde bulunan nesneleri bölütlerken aynı zamanda betimleyebilen tümleşik bir yöntem önerilmiştir.  Anahtar Kelimeler: Şekil betimleyici, Fourier dönüşümü, hızlı yürüme, yönlendirilebilir süzgeçler.We proposed a gradient based shape description and recognition methodology to use with active contour based object segmentation systems. We selected Fast Marching method which is an active contour segmentation technique is assigned for object detection and segmentation. We proposed a new speed function using first and second order intensity derivatives. In order to obtain the shapes properly, the evolving front is asked to be stopped near real object boundaries. Nevertheless, it is impossible for ordinary Fast Marching systems because of the non-zero speed functions. One of the contributions of the thesis is providing a new FM contour stopping algorithm. The proposed algorithm uses first and second order derivatives of local image intensities to determine whether an evolving node should stop or not The proposed system is capable for both segmentation and identification of shapes simultaneously. Since we utilized an active contour based segmentation approach for detecting objects, we need a contour based shape descriptor. In this work, we proposed a contour-based shape description scheme, named Gradient Based Shape Descriptor (GBSD), using some rotated gradient filter responses along the object boundary. GBSD can be applied to both binary and grayscale images. The proposed algorithm utilizes gradient based features which are extracted along the object boundaries. We use two-dimensional steerable G-Filters to obtain gradient information at different orientations and scales, and then aggregate the gradients into a shape signature. The signature derived from the rotated object is circularly shifted version of the signature derived from the original object. This property is called the circular-shifting rule. The shape descriptor is defined as the Fourier transform of the signature. We also provide a distance measure for the proposed descriptor by taking the circular-shifting rule into account. The performance of the proposed descriptor is evaluated over two databases; one containing digits taken from vehicle license plates and the other containing MPEG-7 Core Experiment and Kimia shape data set. The experiments show that the devised method outperforms other well-known Fourier-based shape descriptors such as centroid distance and boundary curvature. When we combine the proposed shape descriptor GBSD with Fast Marching (FM) approach, we obtain a descriptor vector for each FM evolving iteration. That means we have more than one feature vectors for a single shape. Besides, each vector will be able to be fed into a classifier to obtain different decisions. Each decision result can be threaded as a different source of information and a decision fusion process can be applied to get final decision. This is another contribution of the thesis. The proposed system has following advantages comparing with other concurrent object segmentation-recognition approaches; In previous studies, the evolving front is always forced to have the prior shape. However, we stop the front near object boundaries. It is stated that, the proposed method does not work when the number of prior object classes is more than one (Paragios vd., 2002). However, our system is capable to segment and recognize different class of characters. Previous researchers obtained the shape statistics from the whole map of level set values; however we employ only the front itself for shape description. Previously proposed systems need high calculation power because they have two optimization stages, one is for minimization of image energies, and other is for minimizing shape similarity energies. On the other hand, our system has one optimization step for minimizing both energies. Misrecognitions mostly occur because of segmentation problems. An object cannot be easily recognized if we cannot extract it from the background properly. In this study, many segmentation results are employed as input of classifiers to reduce the segmentation effects on recognition. In traditional recognition systems only one recognition chance exists for a single object but we can obtain many decision results while the active contour is capturing the shape. We showed in Section 5.4 that voting among these results raises the recognition performance comparing with single decision cases. We have feedback mechanism between segmentation and description. This feedback provides better segmentation and recognition results. Keywords: Shape descriptors, fourier, fast marching, steerable filters

    SARIYANIDI et al.: LOCAL ZERNIKE MOMENTS FOR FACIAL AFFECT RECOGNITION 1 Local Zernike Moment Representation for Facial Affect Recognition

    Get PDF
    In this paper, we propose to use local Zernike Moments (ZMs) for facial affect recognition and introduce a representation scheme based on performing non-linear encoding on ZMs via quantization. Local ZMs provide a useful and compact description of image discontinuities and texture. We demonstrate the use of this ZM-based representation for posed and discrete as well as naturalistic and continuous affect recognition on standard datasets, and show that ZM-based representations outperform well-established alternative approaches for both tasks. To the best of our knowledge, the performance we achieved on CK+ dataset is superior to all results reported to date.

    Video dizilerindeki araç plakalarının FE-Yoğunlaştırma algoritması kullanılarak izlenmesi

    Get PDF
    Automated vehicle identification (AVI) is still an important research issue and drawing attention in machine vision community. Its potential commercial applications are automatic barrier systems, automatic payment of parking or highway toll fee, automatic locating of a stolen vehicle, automatic calculation of traffic volume and so on. License plate enables us to identify a vehicle and its owner. License plate recognition is the most effective method for identification of the vehicle. A suitable and promising solution to vehicle identification is visual recognition of the license plate from camera view. This approach is applicable because it does not require vehicles to carry additional equipment such as special RF transmitters. Without additional cost, these systems are capable of installation to the field. But visual license plate detection and recognition is a very difficult task. It is quite a challenging problem because vehicles are running in an outdoor environment, where lighting conditions can change rapidly, weather conditions can cause poor image quality, license plates can be dirty or in poor condition and occlusions can occur frequently. Therefore, Visual License Plate Recognition (VLPR) systems may fail because of uncontrollable external conditions. Beside the challenging nature of the problem, the high-dimensional nature of the VLPR problem may impose a significant computational load on the target processing platform. The aim of this work is 3D tracking of license plate in order to determine the state (spatial position and 3D orientation) of the license plate from sequential frames of the video. This can be accomplished in a brute force way by testing every possible orientation and translation and then selecting the one that best fits the current frame. If all six degrees of spatial freedom of the object are to be determined, the state space of the object is six dimensional. Setting the number of possible values of each degree of freedom to 100, the task of tracking by brute force then requires 1006 comparisons of a state with the image data. Even with such a limited resolution and a six dimensional feature space it is clear that, it is computationally impossible to perform tracking in real time by brute force. That is where stochastic tracking is meaningful. A stochastic process is one whose behaviour is non-deterministic in that the next state of the environment is partially but not fully determined by the previous state of the environment. Instead of comparing every possible configuration of the object with each video frame, the idea behind stochastic tracking is to make a set of guesses of the state, compare these guesses with the current frame, and use the result of this comparison as the basis for a new set of guesses when the next frame comes. The new guesses are made by selecting the best guesses from the last frame and applying a model of the movement of the object from one frame to the next. The set of guesses (called particles or samples) will frame by frame converge around the correct state of the object. In recent years, there has been a great interest in applying Particle Filtering to computer vision problems. This specialized Particle Filtering method for computer vision problems is introduced as Condensation or Sequential Importance Sampling. Condensation algorithm utilizes factored sampling and given dynamic models to propagate an entire probability distribution for object's position and shape over time. It can perform successfully robust tracking of object motion. On the other hand, its convergence greatly depends on the trade off between the number of particles/hypotheses and the fitness of the dynamic model. For example, in cases where the dynamics are complex or poorly modelled, thousands of samples are usually required for realapplications. In order to improve the performance of the Condensation algorithm, DE-Condensation algorithm is proposed, which is an integration of the Differential Evolution and Condensation algorithms. DE-Condensation algorithm is utilized for spatial position estimation and tracking of license plates in 3D from monocular camera view. The performance and computational load of the Extended Kalman filter, Condensation Algorithm, DE-Condensation algorithm and Genetic Condensation algorithm are compared for evaluating DE-Condensation Algorithm's performance.  Keywords: License Plate Tracking, Condensation, DE-Condensation. Bu çalışmanın amacı, araç plakalarının üç boyutlu uzayda konum ve yöneliminin bulunması için video görüntüsünden izlenmesidir. Eğer nesnenin altı dereceli uzay serbestliği belirlenmek isteniyorsa, durum uzayı altı boyutlu olur. Her serbestlik derecesi için olası değerler kümesini 100 elemanlı kabul edersek, bu nesneyi her olası durumu deneyerek izleyebilmek için görüntü verisi üzerinde 1006 karşılaştırma yapmamız gerekmektedir. Bu sınırlı çözünürlük ve altı dereceli serbestlik uzayında dahi, bu şekilde gerçek zamanlı izleme yapmanın mümkün olmadığı açıktır. Stokastik izlemenin ardında yatan düşünce, her olası nesne durumunu denemek yerine, durum hakkında tahminlerde bulunmak ve bu tahminleri o anki video karesi ile karşılaştırarak sonuçları bir sonraki video karesi için tahmin yapmakta kullanmaktır. Son yıllarda, bilgisayar ile görüntü işleme problemlerinde Parçacık Filtreleri’nin kullanımına yönelik bir ilgi görülmektedir. Bilgisayar ile görüntü işleme problemlerinde kullanılan özel Parçacık Filtresi’ne Yoğunlaştırma algoritması veya Ardışıl Önem Örnekleme denmektedir. Bu yöntem hareketli nesneler için gürbüz bir izleme olanağı sunmaktadır. Öte yandan, bu algoritmanın yakınsaması büyük oranda parçacık sayısı ve dinamik modelin doğruluğu arasındaki ilişkiye bağlıdır. Bu tezde Yoğunlaştırma algoritmasını iyileştirmek amacıyla FE-Yoğunlaştırma algoritması önerilmektedir. Bu algoritma Farksal Evrim ve Yoğunlaştırma algoritmalarının bir birleşimidir. FE-Yoğunlaştırma algoritması üç boyutlu uzayda tek bir kamerayla araç plakası konum ve yöneliminin izlenmesi için kullanıldı. Genişletilmiş Kalman filtresi, Yoğunlaştırma, Genetik Yoğunlaştırma ve FE-Yoğunlaştırma algoritmalarının izleme başarımları karşılaştırıldı. FE-Yoğunlaştırma algoritması diğer üç algoritmaya göre çok daha iyi başarım göstermektedir. Anahtar Kelimeler: Araç plakası izlenmesi, yoğunlaştırma, FE-Yoğunlaştırma

    Aktif görünüm modeline dayalı gürbüz yüz hizalama

    Get PDF
    In building a face recognition system for real-life scenarios, one usually faces the problem that is the selection of a feature-space and preprocessing methods such as alignment under varying illumination conditions and poses. In this study, we developed a robust face alignment approach based on Active Appearance Model (AAM) by inserting an illumination normalization module into the standard AAM searching procedure and inserting different poses of the same identity into the training set. The modified AAM search can now handle both illumination and pose variations in the same epoch, hence it provides better convergence in both point-to-point and point-to-curve senses. We also investigate how face recognition performance is affected by the selection of feature space as well as the proposed alignment method. The experimental results show that the combined pose alignment and illumination normalization methods increase the recognition rates considerably for all feature spaces. In this paper, we focus on the problems induced by varying illumination and poses. Our primary aim is to eliminate the negative effect of illumination and pose on the face recognition system performance through illumination and pose-invariant face alignment based on Active Appearance Model. Pose normalization is required before recognition in order to reach acceptable recognition rates. We developed AAM based pose normalization method which uses only one AAM. There are two important contributions over the previous studies. By using the proposed method: One can synthetically generate appearances for different poses when only frontal face image is available. One can generate frontal appearance of the face when there is only non-frontal face image is available. The same variation in pose imposes similar effect on the face appearance for all individuals. Deformation mostly occurs on the shape whereas the texture is almost constant. Since the number of landmarks in AAM is constant, the wireframe triangles are translated or scaled as pose changes. So as we change pose, only wireframe triangles undergo affine transformation but the gray level distribution within these triangles remains the same. One can easily generate frontal face appearance if AAM is correctly fitted to any given non-frontal face of the same individual provided that there is no self-occlusion on face. Self-occlusion usually is not a problem for angles less than ±45. For 2D pose generation, we first compute how each landmark point translates and scales with respect to the corresponding frontal counterpart landmark point for 8 different poses, and obtain a ratio vector for each pose. We use the ratio vector to create the same pose variation over the shape of another individual. Appearances are also obtained through AAM using synthetically generated landmarks. It is important to note that the generated faces contain no information about the individual used in building the ratio matrix. An AAM model trained by using only frontal faces can only fit into frontal faces well and fail to fit into non-frontal faces. Our purpose here is to enrich the training database by inserting synthetically generated faces at different poses so that AAM model trained by frontal faces can now converge to images at any pose. In this paper we developed AAM based face alignment method which handles illumination and pose variations. The classical AAM fails to model the appearances of the same identity under different illuminations and poses. We solved this problem by inserting histogram fitting based normalization into the searching mechanism and inserting different poses of the same identity into the training set. From the experimental results, we showed that the proposed face restoration scheme for AAM provides higher accuracy for face alignment in point-to-point error sense. Recognition results based on PCA and LDA feature spaces showed that the proposed illumination and pose normalization outperforms standard AAM. Keywords: Face alignment, active appearance models, illumination invariant face recognition.Yüz görünümündeki şekil ve doku değişimine bağlı farklılıklar yüz tanıma problemini oldukça zor hale getirmektedir. Bireyler arası yüz görünüm farklılıklarının fazla olmasına karşın, her bireyin kendi yüz görünümünü farklı hale getirecek değişimlerde mevcuttur. Özellikle aydınlatma ve poz değişimleri yüz tanıma sistemlerinin başarımını etkileyen zorlukların başında gelmektedir. Bu çalışmada otomatik yüz hizalama için aydınlatma ve poz değişimlerine karşı gürbüz yeni bir yöntem tanıtılmıştır. Klasik aktif görünüm modeli (AGM) yapısına yüz için özelleştirilmiş aydınlatma normalizasyonu eklenerek AGM’nin farklı aydınlatma koşullarındaki arama ve yakınsama performansını arttıran yeni bir yöntem önerilmiştir. AGM ile yüz bölütlemede, özgün yüz aydınlatma normalizasyonunu AGM bükme (warping) işleminden hemen sonra ve her çevirimde uygulayarak aydınlatma değişimlerine karşı gürbüz bir model oluşturulmuştur. Yöntem giriş olarak verilen farklı aydınlatılmış ve farklı bir poza sahip yüz görüntüsünü hem iyileştirmeye hem de hizalamaya çalışmaktadır. Ayrıca tam karşıdan çekilmiş tek bir yüz görüntüsünden, o kişinin farklı pozlara sahip görüntülerini sentezleyen bir yöntem tanıtılmış ve sentetik olarak sentezlenen poz verileri ile AGM şekil uzayı güçlendirilerek poz değişimlerine karşı gürbüz bir yöntem önerilmiştir. Önerilen yöntemde, model eğitimi için aynı bireyin farklı aydınlatma ve poza sahip görüntülerine ihtiyaç duyulmamaktadır. Önerilen yöntemde aydınlatma değişimlerine karşı bağışık bir yapı oluşturulması için karmaşık aydınlatma modelleri gerekmemektedir. Deneysel çalışmalardan da görüleceği gibi önerilen yöntem, farklı aydınlatma ve pozlarda bile klasik AGM’ye göre oldukça iyi sonuçlar vermiştir. Anahtar Kelimeler: Yüz hizalama, aktif görünüm modelleri, aydınlatmadan bağımsız yüz tanıma

    Human semantic parsing for person re-identification

    Get PDF
    Person re-identification is a challenging task mainly dueto factors such as background clutter, pose, illuminationand camera point of view variations. These elements hinder the process of extracting robust and discriminative representations, hence preventing different identities from being successfully distinguished. To improve the representation learning, usually local features from human body partsare extracted. However, the common practice for such aprocess has been based on bounding box part detection.In this paper, we propose to adopt human semantic parsing which, due to its pixel-level accuracy and capabilityof modeling arbitrary contours, is naturally a better alternative. Our proposed SPReID integrates human semanticparsing in person re-identification and not only considerably outperforms its counter baseline, but achieves stateof-the-art performance. We also show that, by employinga simple yet effective training strategy, standard populardeep convolutional architectures such as Inception-V3 andResNet-152, with no modification, while operating solelyon full image, can dramatically outperform current stateof-the-art. Our proposed methods improve state-of-the-artperson re-identification on: Market-1501 [48] by ~17% inmAP and ~6% in rank-1, CUHK03 [24] by ~4% in rank-1and DukeMTMC-reID [50] by ~24% in mAP and ~10% inrank-1.Computer Vision FoundationWOS:000457843601020Scopus - Affiliation ID: 60105072Conference Proceedings Citation Index- ScienceProceedings PaperHaziran2018YÖK - 2017-1

    Yüz tanıma

    No full text
    ##nofulltext##Görüntü işleme alanında çalışan 36 farklı üniversiteden 52 doktora ve yüksek lisans öğrencisinin katılımı ile başlayan akademik kampta, alanında uzmanlıkları ile tanınan 11 farklı üniversiteden 14 akademisyenin katılımıyla 17 farklı seminer ve ders gerçekleştirildi. 2. Akademik Kamp çalışmalarına, 16 Nisan 2015 tarihinde saat 09:00`da açılış töreni ile başladı. Açılışta ilk olarak konuşan EMO Müdürü Emre Metin, kamp çalışmalarına ilişkin temel bilgileri katılımcılara aktardı. Metin`in ardından kürsüye gelen EMO Yönetim Kurulu Başkanı Hüseyin Yeşil ise konuşmasına kamp çalışmalarına katkı veren EMO MİSEM Komisyonu Başkanı Orhan Örücü, Prof . Dr. Tayfun Akgül ve kampa ev sahipliği yapan Nesin Vakfı`na teşekkür ederek, başladı. EMO Akademiyle Bağını Güçlendiriyor EMO`nun akademi dünyası ile daha yakın ilişki kurmayı hedeflediğine dikkat çeken Yeşil, ikincisi yapılan akademik kampı tekrarlamak istediklerini kaydetti. EMO`nun kendi meslek alanlarına giren üniversitelerin ilgili bölümleri ile özel ilişkiler kurmaya çalıştığını ifade eden Yeşil, bu kapsamda 25 Ekim 2014 tarihinde 56 bölüm başkanı ile bir toplantı düzenlediklerini kaydetti. EMO ve üniversite çalışmalarının koordine edilebilmesi için 11 Nisan 2015 tarihinde bir toplantı daha gerçekleştirildiğini ifade eden Yeşil, bu kapsamda Elektrik-Elektronik-Kontrol-Biyomedikal Mühendisliği Bölüm Başkanları Konseyi`nin de kurulduğunu bildirdi. EMO tarafından yayımlanan EMO Bilimsel Dergi ile alandaki bilimsel dergi ihtiyacının giderilmeye çalışıldığını ifade eden Yeşil, derginin 8. sayının hazırlıklarının yapıldığını kaydetti. Genç akademisyenlerden EMO Bilimsel Dergisi için makale katkısı isteyen Yeşil, baş editör Prof. Dr. Hamit Serbest ve diğer dergi editörlerine katkıları dolayısıyla teşekkür etti. EMO`nun Meslek İçi Eğitim Merkezi (MİSEM) çalışmaları kapsamında yürüttüğü eğitim ve seminerlere de dikkat çeken Yeşil, mesleki ve teknik gelişmelerin bu eğitimlerle üyelere aktarılmaya çalışıldığını vurguladı. EMO`nun mesleki ve teknik gündemin yanında toplumsal yaşamda da katkılar sağlamaya çalıştığını ifade eden Yeşil, konuşmasını şöyle sürdürdü: "Yalnızca Soma`da yaşanan iş cinayeti hem de tüm Türkiye`yi karanlıkta bırakan elektrik kesintisi konularında bile kamuoyunu bilgilendirme çabalarımız bile EMO`nun varlığının önemli olduğunu ortaya koymaktadır. Gerçeklerin ortaya çıkması için yürütmeye çalıştığımız bu çalışmaların genç arkadaşlarımızın da katkılarıyla güçlenerek, süreceğine inanıyoruz." Yeni Kamplar Geliyor Yeşil`in ardından kürsüye gelen EMO MİSEM Komisyonu Başkanı Orhan Örücü ise konuşmasına daha önce düzenlenen akademik kampa ilişkin bilgi aktararak başladı. Örücü, Akademik Kampa 36 farklı üniversiteden toplam 52 öğrencinin katılım sağlamasının önemine işaret ederek, kampta yer alan genç 20 kadın akademisyeni de kutladı. Akademik kampların farklı konularda daha sık periyotlarda tekrarlanması için çalışmalar yürütüldüğünü ifade eden Örücü, ODTÜ`den Prof. Dr. Murat Eyüpoğlu ile birlikte "Manyetik Görüntüleme", yine ODTÜ`den Prof. Dr. Bülent Ertan ile "Elektrik Makineleri ve Güç Elektroniği" ve İTÜ`den Doç. Dr. Neslihan Şengür ile "Yapay Sinir Ağları" konularına ilişkin kamp düzenlenebilmesi için çalışmalar yürütüldüğünü bildirdi. Örücü, hazırlık çalışmaları kapsamında seminerlere katılacak deneyimli akademisyenlerin belirlenmesi için önümüzdeki dönemde genç akademisyenler arasından EMO tarafından anketler düzenleneceği ve öneriler alınacağını kaydetti. Örücü`nün ardından konuşan Prof. Dr. Tayfun Akgül ise bir önceki kamp çalışmalarına değinerek, "çok keyifli" bir çalışma sürecinin yaşandığını kaydetti. Akgül, akademik kampların daha sıcak ilişkiler yaratarak, çalışmaların ivmesini artırdığına dikkat çekti. Nesin Vakfı`na Matematik Köyü`nden yarattığı çalışma ortamı için teşekkür eden Akgül, tüm katılımcıların kamp çalışmalarında önemli katkılar sağlayacağına inandığını ifade etti. Akgül`ün konuşmasını tamamlamasının ardından, katılımcılar kendini tanıtarak yaptıkları çalışmalara ilişkin bilgi aktardı. Kampta daha sonra Prof. Dr. Muhittin Gökmen`in verdiği "Yüz Tanıma" başlıklı derse geçildi. Kampta ilk gün çalışmaları kapsamında Gökmen`in yanı sıra Prof. Dr. Tayfun Akgül "Bilim Etiği", Prof. Dr. Hamit Serbest "Bilim, Mühendislik ve Öğretim Kurumları", Prof. Dr. Tayfun Akgül "Yüzsüz Yüz Tanıma" ve Prof. Dr. Enis Çetin "Orman Yangını Bulma, Örüntü Tanıma, Mikroskop Görüntülerinin İşlenmesi" konu başlıklarında seminerler verdi. Kamp çalışmaları kapsamında 17 Mart 2015 Cuma günü ise ilk olarak EMO Bilimsel Dergi Yayın Kurulu Üyesi Prof. Dr. Altay Güvenir tarafından "EMO Bilimsel Dergi Tanıtımı" başlıklı oturum düzenlendi. Ardından Prof. Dr. Atilla Bir`in tarafından ise katılımcılara "Öklid`ten Nasreddin Tusi`ye, Tusi`den Uluğ Bey‘e Bilim" başlıklı sunum gerçekleştirildi. Kamp çalışmaları kapsamında öğlden sonra Prof. Dr. Ayşin Ertüzün tarafından "Doku Analizi ve Örüntü Tanıma", Yrd. Doç. Dr. Emre Sümer tarafından ise "Görüntü İşleme Teknikleri ile 3-B Bina Modelleme" dersleri verildi. Günün son dersinin ise Prof. Dr. Ali Nesin, "Mühendisler ve Matematik; Sayı Ne Demektir?" başlıklığı altında yaptı. Cumartesi günü ise ilk olarak Yrd. Doç. Dr. Berk Gökberk`ün "Biyometri", Prof. Dr. Arif Nacaroğlu`nun "Sıkıştırılmış Sinyallerin Algılanması", Yrd. Doç. Dr. Özlem Durmaz İncel`in "İnsan Eylemi ve Bağlam Tanıma" ve Prof. Dr. A. Aydın Alatan`ın "Ardışık Görüntülerden Sahne Derinliği Kestirimi" başlıklı dersleri gerçekleştirildi. Kampın son gününde ise Yrd. Doç. Dr. Alper Selver`in "Sıradüzenli Sistemlerin Günlük Yaşam Uygulamaları: Kalite Tespiti, Organ Görüntüleme ve Radarla Nesne Tespiti" ile Doç. Dr. Hazım Kemal Ekenel`in "İçerik Tabanlı İmge ve Video Çıkarımı" başlıklı dersleri yapıldı. Kamp çalışmaları Efes Harabeleri`ne ve Şirince Köyü`ne yapılan gezi ile tamamlandı.EM
    corecore